Hello-Agents 读书笔记(一)
这两天晚上在宾馆有时间,再次开始重读Hello-Agents。不知听谁说过,学习最好的方式是尝试输出观点,这样会帮助你整理你自己正在学习的知识。所以按下耐心,尝试写这第一篇读书笔记。先把链接放在这里,大家还是去读原版:https://datawhalechina.github.io/hello-agents/
第一部分的一,二,三章都是在介绍一些基础知识。如果你完全没有接触过LLM或者Agent,看一下增长见识很有必要。但如果你有一些概念,可以快速浏览。因为虽然有实操的代码,但这三篇并不会教你真正开始了解现在的Agent的开发。
除了介绍一下Agent和大模型的历史知识外,这三篇的内容总结下来可以归纳这几点:
-
智能体通过API感知环境,由LLM进行规划(分解任务)和工具选择,然后执行行动(如调用API),并根据环境反馈进行下一轮迭代。
-
智能体的强大,根植于其“心脏”——LLM。而我们通过提示工程 与LLM沟通,利用角色扮演、思维链等技巧引导其行为。但LLM现在还是有其局限性的,如“模型幻觉”(生成虚假信息)和知识时效性问题
-
理解workflow VS Agent的区别。Workflow是静态的、预先编排的固定流程,而Agent是动态的、以目标为导向的自主系统。前者是“按指令办事”,后者是“为达目标自主思考”。但结合上两条,我相信大家也应该能意识到,现阶段的AI Agent还是有局限性的。
这篇教程真正的干货是从第二部分第四章开始的。因为它讲述了Agent开发最常见的三个范式:
-
ReAct:
- Thought (思考): 这是智能体的“内心独白”。它会分析当前情况、分解任务、制定下一步计划,或者反思上一步的结果。
- Action (行动): 这是智能体决定采取的具体动作,通常是调用一个外部工具,例如
Search['华为最新款手机']。 - Observation (观察): 这是执行
Action后从外部工具返回的结果,例如搜索结果的摘要或API的返回值。 不知道你日常工作是怎样的,但是作为在制造业工作了十几年老员工,我可是非常熟悉PDCA这个套路的。先计划,再干,干完检查,看看是不是要改进,然后再来一轮。
-
Plan-and-Solve:
- 规划阶段 (Planning Phase): 首先,智能体会接收用户的完整问题。它的第一个任务不是直接去解决问题或调用工具,而是将问题分解,并制定出一个清晰、分步骤的行动计划。这个计划本身就是一次大语言模型的调用产物。
- 执行阶段 (Solving Phase): 在获得完整的计划后,智能体进入执行阶段。它会严格按照计划中的步骤,逐一执行。每一步的执行都可能是一次独立的 LLM 调用,或者是对上一步结果的加工处理,直到计划中的所有步骤都完成,最终得出答案。 有人可能要说了,这才是PDCA啊。我觉得还是有点区别的。这更像是一个water-fall的项目流程。先思考整个步骤,然后依次执行。每个milestone设置GateReview,确保任务执行进程的可控。
-
Reflection:
- 执行 (Execution):首先,智能体使用我们熟悉的方法(如 ReAct 或 Plan-and-Solve)尝试完成任务,生成一个初步的解决方案或行动轨迹。这可以看作是“初稿”。
- 反思 (Reflection):接着,智能体进入反思阶段。它会调用一个独立的、或者带有特殊提示词的大语言模型实例,来扮演一个“评审员”的角色。这个“评审员”会审视第一步生成的“初稿”,并从多个维度进行评估,例如:
- 事实性错误:是否存在与常识或已知事实相悖的内容?
- 逻辑漏洞:推理过程是否存在不连贯或矛盾之处?
- 效率问题:是否有更直接、更简洁的路径来完成任务?
- 遗漏信息:是否忽略了问题的某些关键约束或方面? 根据评估,它会生成一段结构化的反馈 (Feedback),指出具体的问题所在和改进建议。
- 优化 (Refinement):最后,智能体将“初稿”和“反馈”作为新的上下文,再次调用大语言模型,要求它根据反馈内容对初稿进行修正,生成一个更完善的“修订稿”。
你有没有感觉这像是敏捷开发了?这部分我不懂,大家可以来纠正我。
读完第四章,更证明了我的观点:Agent的产生,其实是因为LLM能力的提升。我们尝试训练它按照人类的组织形式,将它当作一个熟练工,而不是小学生去完成任务。
加载中...